home *** CD-ROM | disk | FTP | other *** search
/ Meeting Pearls 1 / Meeting Pearls Vol 1 (1994).iso / installed_progs / text / faqs / afs-faq < prev    next >
Encoding:
Internet Message Format  |  1994-05-01  |  78.1 KB

  1. Subject: AFS distributed filesystem FAQ
  2. Newsgroups: alt.filesystems.afs,alt.answers,news.answers
  3. From: mpb@mailserver.aixssc.uk.ibm.com (Paul Blackburn)
  4. Date: 29 Apr 1994 21:56:56 GMT
  5.  
  6. Archive-name: afs-faq
  7. Version: 1.77
  8. Last-modified: 1108 GMT Friday 29th April 1994
  9.  
  10. AFS frequently asked questions
  11. ______________________________________________________________________________
  12.  
  13.    This posting contains answers to frequently asked questions about AFS.
  14.    Your comments and contributions are welcome (email: mpb@acm.org)
  15.  
  16.    Most newsreaders can skip from topic to topic with control-G.
  17.  
  18. ______________________________________________________________________________
  19. Subject: Table of contents:
  20.  
  21.    0  Preamble
  22.       0.01  Purpose and audience
  23.       0.02  Acknowledgements
  24.       0.03  Disclaimer
  25.       0.04  Release Notes
  26.       0.05  Quote
  27.  
  28.    1  General
  29.       1.01  What is AFS?
  30.       1.02  Who supplies AFS?
  31.       1.03  What is /afs?
  32.       1.04  What is an AFS cell?
  33.       1.05  What are the benefits of using AFS?
  34.             1.05.a  Cache Manager
  35.             1.05.b  Location independence
  36.             1.05.c  Scalability
  37.             1.05.d  Improved security
  38.             1.05.e  Single systems image (SSI)
  39.             1.05.f  Replicated AFS volumes
  40.             1.05.g  Improved robustness to server crash
  41.             1.05.h  "Easy to use" networking
  42.             1.05.i  Communications protocol
  43.             1.05.j  Improved system management capability
  44.       1.06  Which systems is AFS available for?
  45.       1.07  What does "ls /afs" display in the Internet AFS filetree?
  46.       1.08  Why does AFS use Kerberos authentication?
  47.  
  48.    2  Using AFS
  49.       2.01  What are the differences between AFS and a unix filesystem?
  50.       2.02  What is an AFS protection group?
  51.       2.03  What are the AFS defined protection groups?
  52.       2.04  What is an AFS access control list (ACL)?
  53.       2.05  What are the AFS access rights?
  54.       2.06  What is pagsh?
  55.       2.07  Why use a PAG?
  56.       2.08  How can I tell if I have a PAG?
  57.       2.09  Can I still run cron jobs with AFS?
  58.       2.10  How much disk space does a 1 byte file occupy in AFS?
  59.       2.11  Is it possible to specify a user who is external
  60.             to the current AFS cell on an ACL?
  61.       2.12  Are there any problems printing files in /afs?
  62.  
  63.    3  AFS administration
  64.       3.01  Is there a version of xdm available with AFS authentication?
  65.       3.02  Is there a version of xlock available with AFS authentication?
  66.       3.03  How does AFS compare with NFS?
  67.       3.04  Given that AFS data is location independent, how does
  68.             an AFS client determine which server houses the data
  69.             its user is attempting to access?
  70.       3.05  Which protocols does AFS use?
  71.       3.06  Are setuid programs executable across AFS cell boundaries?
  72.       3.07  How does AFS maintain consistency on read-write files?
  73.       3.08  How can I run daemons with tokens that do not expire?
  74.       3.09  Can I check my user's passwords for security purposes?
  75.       3.10  Is there a way to automatically balance disk usage across
  76.             fileservers?
  77.       3.11  Can I shutdown an AFS fileserver without affecting users?
  78.       3.12  How can I set up mail delivery to users with $HOMEs in AFS?
  79.       3.13  Should I replicate a ReadOnly volume on the same partition
  80.             and server as the ReadWrite volume?
  81.       3.14  Should I start AFS before NFS in /etc/inittab?
  82.       3.15  Will AFS run on a multi-homed fileserver?
  83.       3.16  Can I replicate my user's home directory AFS volumes?
  84.       3.17  Which TCP/IP ports and protocols do I need to enable
  85.             in order to operate AFS through my Internet firewall?
  86.       3.18  What is the Andrew Benchmark?
  87.       3.19  Is there a version of HP VUE login with AFS authentication?
  88.  
  89.    4  Getting more information
  90.       4.01  Is there an anonymous FTP site with AFS information?
  91.       4.02  Which USENET newsgroups discuss AFS?
  92.       4.03  Where can I get training in AFS?
  93.  
  94.    5  About the AFS faq
  95.       5.01  How can I get a copy of the AFS faq?
  96.       5.02  How can I get my question (and answer) into the AFS faq?
  97.       5.03  How can I access the AFS faq via the World Wide Web?
  98.  
  99.    6  Bibliography
  100. ______________________________________________________________________________
  101.  
  102. Subject: 0  Preamble
  103.  
  104. Subject: 0.01  Purpose and audience
  105.  
  106.    The aim of this compilation is to provide information about AFS including:
  107.  
  108.       + A brief introduction
  109.       + Answers to some often asked questions
  110.       + Pointers to further information
  111.  
  112.    Definitive and detailed information on AFS is provided in Transarc's
  113.    AFS manuals ([23], [24], [25]).
  114.  
  115.    The intended audience ranges from people who know little of the subject
  116.    and want to know more to those who have experience with AFS and wish
  117.    to share useful information by contributing to the faq.
  118.  
  119. Subject: 0.02  Acknowledgements
  120.  
  121.    The information presented here has been gleaned from many sources.
  122.    Some material has been directly contributed by people listed below.
  123.  
  124.    I would like to thank the following for contributing:
  125.  
  126.         Pierette VanRyzin (Transarc)
  127.         Lyle Seaman (Transarc)
  128.         Joseph Jackson (Transarc)
  129.         Dan Lovinger (Carnegie Mellon University)
  130.         Lucien Van Elsen (IBM)
  131.         Jim Rees (University of Michigan)
  132.         Derrick J. Brashear (Carnegie Mellon University)
  133.         Hans-Werner Paulsen (MPI fuer Astrophysik, Garching)
  134.  
  135.    Thanks also to indirect contributors:
  136.  
  137.         Ken Paquette (IBM)
  138.         Lance Pickup (IBM)
  139.         Lisa Chavez (IBM)
  140.         Dawn E. Johnson (Transarc)
  141.  
  142. Subject: 0.03  Disclaimer
  143.  
  144.    I make no representation about the suitability of this
  145.    information for any purpose.
  146.  
  147.    While every effort is made to keep the information in
  148.    this document accurate and current, it is provided "as is"
  149.    with no warranty expressed or implied.
  150.  
  151. Subject: 0.04  Release Notes
  152.  
  153.    This faq compilation contains material used with permission of
  154.    Transarc Corporation. Permission to copy is given provided any
  155.    copyright notices and acknowledgements are retained.
  156.  
  157.    Column 1 is used to indicate changes from the last issue:
  158.  
  159.       N = new item
  160.       U = updated item
  161.  
  162. Subject: 0.05  Quote
  163.  
  164.    "'Tis true; there's magic in the web of it;"         Othello, Act 3 Scene 4
  165.                                               --William Shakespeare (1564-1616)
  166. ______________________________________________________________________________
  167. Subject: 1  General
  168.  
  169. Subject: 1.01  What is AFS?
  170.  
  171.    AFS is a distributed filesystem that enables co-operating hosts
  172.    (clients and servers) to efficiently share filesystem resources
  173.    across both local area and wide area networks.
  174.  
  175.    AFS is marketed, maintained, and extended by Transarc Corporation.
  176.  
  177.    AFS is based on a distributed file system originally developed
  178.    at the Information Technology Center at Carnegie-Mellon University
  179.    that was called the "Andrew File System".
  180.  
  181.    "Andrew" was the name of the research project at CMU - honouring the
  182.    founders of the University.  Once Transarc was formed and AFS became a
  183.    product, the "Andrew" was dropped to indicate that AFS had gone beyond
  184.    the Andrew research project and had become a supported, product quality
  185.    filesystem. However, there were a number of existing cells that rooted
  186.    their filesystem as /afs. At the time, changing the root of the filesystem
  187.    was a non-trivial undertaking. So, to save the early AFS sites from having
  188.    to rename their filesystem, AFS remained as the name and filesystem root.
  189.  
  190. Subject: 1.02  Who supplies AFS?
  191.  
  192.         Transarc Corporation          phone: +1 (412) 338-4400
  193.         The Gulf Tower
  194.         707 Grant Street              fax:   +1 (412) 338-4404
  195.         Pittsburgh
  196.         PA 15219                      email: information@transarc.com
  197.         United States of America             afs-sales@transarc.com
  198.  
  199. Subject: 1.03  What is /afs?
  200.  
  201.    The root of the AFS filetree is /afs. If you execute "ls /afs" you will
  202.    see directories that correspond to AFS cells (see below). These cells
  203.    may be local (on same LAN) or remote (eg halfway around the world).
  204.  
  205.    With AFS you can access all the filesystem space under /afs with commands
  206.    you already use (eg: cd, cp, rm, and so on) provided you have been granted
  207.    permission (see AFS ACL below).
  208.  
  209. Subject: 1.04  What is an AFS cell?
  210.  
  211.    An AFS cell is a collection of servers grouped together administratively
  212.    and presenting a single, cohesive filesystem.  Typically, an AFS cell is
  213.    a set of hosts that use the same Internet domain name.
  214.  
  215.    Normally, a variation of the domain name is used as the AFS cell name.
  216.  
  217.    Users log into AFS client workstations which request information and files
  218.    from the cell's servers on behalf of the users.
  219.  
  220. Subject: 1.05  What are the benefits of using AFS?
  221.  
  222.    The main strengths of AFS are its:
  223.  
  224.       + caching facility
  225.       + security features
  226.       + simplicity of addressing
  227.       + scalability
  228.       + communications protocol
  229.  
  230.    Here are some of the advantages of using AFS in more detail:
  231.  
  232. Subject: 1.05.a  Cache Manager
  233.  
  234.    AFS client machines run a Cache Manager process. The Cache Manager
  235.    maintains information about the identities of the users logged into
  236.    the machine, finds and requests data on their behalf, and keeps chunks
  237.    of retrieved files on local disk.
  238.  
  239.    The effect of this is that as soon as a remote file is accessed
  240.    a chunk of that file gets copied to local disk and so subsequent
  241.    accesses (warm reads) are almost as fast as to local disk and
  242.    considerably faster than a cold read (across the network).
  243.  
  244.    Local caching also significantly reduces the amount of network traffic,
  245.    improving performance when a cold read is necessary.
  246.  
  247. Subject: 1.05.b  Location independence
  248.  
  249.    Unlike NFS, which makes use of /etc/filesystems (on a client) to map
  250.    (mount) between a local directory name and a remote filesystem, AFS
  251.    does its mapping (filename to location) at the server. This has the
  252.    tremendous advantage of making the served filespace location independent.
  253.  
  254.    Location independence means that a user does not need to know which
  255.    fileserver holds the file, the user only needs to know the pathname
  256.    of a file. Of course, the user does need to know the name of the
  257.    AFS cell to which the file belongs. Use of the AFS cellname as the
  258.    second part of the pathname (eg: /afs/$AFSCELL/somefile) is helpful
  259.    to distinguish between file namespaces of the local and non-local
  260.    AFS cells.
  261.  
  262.    To understand why such location independence is useful, consider
  263.    having 20 clients and two servers. Let's say you had to move
  264.    a filesystem "/home" from server a to server b.
  265.  
  266.    Using NFS, you would have to change the /etc/filesystems file on 20
  267.    clients and take "/home" off-line while you moved it between servers.
  268.  
  269.    With AFS, you simply move the AFS volume(s) which constitute "/home"
  270.    between the servers. You do this "on-line" while users are actively
  271.    using files in "/home" with no disruption to their work.
  272.  
  273.    (Actually, the AFS equivalent of "/home" would be /afs/$AFSCELL/home
  274.    where $AFSCELL is the AFS cellname.)
  275.  
  276. Subject: 1.05.c  Scalability
  277.  
  278.    With location independence comes scalability. An architectural goal
  279.    of the AFS designers was client/server ratios of 200:1 which has
  280.    been successfully exceeded at some sites.
  281.  
  282.    Transarc do not recommend customers use the 200:1 ratio. A more
  283.    cautious value of 50:1 is expected to be practical in most cases.
  284.    It is certainly possible to work with a ratio somewhere between
  285.    these two values. Exactly what value depends on many factors including:
  286.    number of AFS files, size of AFS files, rate at which changes are made,
  287.    rate at which file are being accessed, speed of servers processor,
  288.    I/O rates, and network bandwidth.
  289.  
  290.    AFS cells can range from the small (1 server/client) to the massive
  291.    (with tens of servers and thousands of clients).
  292.  
  293.    Cells can be dynamic: it is simple to add new fileservers or clients
  294.    and grow the computing resources to meet new user requirements.
  295.  
  296. Subject: 1.05.d  Improved security
  297.  
  298.    Firstly, AFS makes use of Kerberos to authenticate users.
  299.    This improves security for several reasons:
  300.  
  301.      + passwords do not pass across the network in plaintext
  302.  
  303.      + encrypted passwords no longer need to be visible
  304.  
  305.           You don't have to use NIS, aka yellow pages, to distribute
  306.           /etc/passwd - thus "ypcat passwd" can be eliminated.
  307.  
  308.           If you do choose to use NIS, you can replace the password
  309.           field with "X" so the encrypted password is not visible.
  310.           (These issues are discussed in detail in [25]).
  311.  
  312.      + AFS uses mutual authentication - both the service provider
  313.        and service requester prove their identities
  314.  
  315.    Secondly, AFS uses access control lists (ACLs) to enable users to
  316.    restrict access to their own directories.
  317.  
  318. Subject: 1.05.e  Single systems image (SSI)
  319.  
  320.    Establishing the same view of filestore from each client and server
  321.    in a network of systems (that comprise an AFS cell) is an order of
  322.    magnitude simpler with AFS than it is with, say, NFS.
  323.  
  324.    This is useful to do because it enables users to move from workstation
  325.    to workstation and still have the same view of filestore. It also
  326.    simplifies part of the systems management workload.
  327.  
  328.    In addition, because AFS works well over wide area networks the SSI
  329.    is also accessible remotely.
  330.  
  331.    As an example, consider a company with two widespread divisions
  332.    (and two AFS cells): ny.acme.com and sf.acme.com. Mr Fudd, based
  333.    in the New York office, is visiting the San Francisco office.
  334.  
  335.    Mr. Fudd can then use any AFS client workstation in the San Francisco
  336.    office that he can log into (a unprivileged guest account would suffice).
  337.    He could authenticate himself to the ny.acme.com cell and securely access
  338.    his New York filespace.
  339.  
  340.    For example:
  341.  
  342.        The following shows a guest in the sf.acme.com AFS cell:
  343.        {1} obtaining a PAG with pagsh command (see 2.06)
  344.        {2} use the klog command to authenticate into the ny.acme.com AFS cell
  345.        {3} making a HOME away from home
  346.        {4} invoking a homely .profile
  347.  
  348.        guest@toontown.sf.acme.com $ /usr/afsws/etc/pagsh            # {1}
  349.        $ /usr/afsws/bin/klog -cell ny.acme.com -principal elmer     # {2}
  350.        Password:
  351.        $ HOME=/afs/ny.acme.com/user/elmer; export HOME              # {3}
  352.        $ cd
  353.        $ .  .profile                                                # {4}
  354.        you have new mail
  355.        guest@toontown $
  356.  
  357.    It is not necessary for the San Francisco sys admin to give Mr. Fudd
  358.    an AFS account in the sf.acme.com cell.  Mr. Fudd only needs to be
  359.    able to log into an AFS client that is:
  360.       1) on the same network as his cell and
  361.       2) his ny.acme.com cell is mounted in the sf.acme.com cell
  362.          (as would certainly be the case in a company with two cells).
  363.  
  364. Subject: 1.05.f  Replicated AFS volumes
  365.  
  366.    AFS files are stored in structures called Volumes.  These volumes
  367.    reside on the disks of the AFS file server machines.  Volumes containing
  368.    frequently accessed data can be read-only replicated on several servers.
  369.  
  370.    Cache managers (on users client workstations) will make use of replicate
  371.    volumes to load balance.  If accessing data from one replicate copy, and
  372.    that copy becomes unavailable due to server or network problems, AFS will
  373.    automatically start accessing the same data from a different replicate copy.
  374.  
  375.    An AFS client workstation will access the closest volume copy.
  376.    By placing replicate volumes on servers closer to clients (eg on same
  377.    physical LAN) access to those resources is improved and network traffic
  378.    reduced.
  379.  
  380. Subject: 1.05.g  Improved robustness to server crash
  381.  
  382.    The Cache Manager maintains local copies of remotely accessed files.
  383.  
  384.    This is accomplished in the cache by breaking files into chunks
  385.    of up to 64k (default chunk size). So, for a large file, there may be
  386.    several chunks in the cache but a small file will occupy a single chunk
  387.    (which will be only as big as is needed).
  388.  
  389.    A "working set" of files that have been accessed on the client is
  390.    established locally in the client's cache (copied from fileserver(s)).
  391.  
  392.    If a fileserver crashes, the client's locally cached file copies are usable.
  393.  
  394.    Also, if the AFS configuration has included replicated read-only volumes
  395.    then alternate fileservers can satisfy requests for files from those
  396.    volumes.
  397.  
  398. Subject: 1.05.h  "Easy to use" networking
  399.  
  400.    Accessing remote file resources via the network becomes much simpler
  401.    when using AFS. Users have much less to worry about: want to move
  402.    a file from a remote site? Just copy it to a different part of /afs.
  403.  
  404.    Once you have wide-area AFS in place, you don't have to keep local
  405.    copies of files. Let AFS fetch and cache those files when you need them.
  406.  
  407. Subject: 1.05.i  Communications protocol
  408.  
  409.    AFS communications protocol is optimized for Wide Area Networks.
  410.    Retransmitting only the single bad packet in a batch of packets
  411.    and allowing the number of unacknowledged packets to be higher
  412.    (than in other protocols, see [4]).
  413.  
  414. Subject: 1.05.j  Improved system management capability
  415.  
  416.    Systems administrators are able to make configuration changes
  417.    from any client in the AFS cell (it is not necessary to login
  418.    to a fileserver).
  419.  
  420.    With AFS it is simple to effect changes without having to take
  421.    systems off-line.
  422.  
  423.    Example:
  424.  
  425.    A department (with its own AFS cell) was relocated to another office.
  426.    The cell had several fileservers and many clients.
  427.    How could they move their systems without causing disruption?
  428.  
  429.    First, the network infrastructure was established to the new location.
  430.    The AFS volumes on one fileserver were migrated to the other fileservers.
  431.    The "freed up" fileserver was moved to the new office and connected
  432.    to the network.
  433.  
  434.    A second fileserver was "freed up" by moving its AFS volumes across
  435.    the network to the first fileserver at the new office. The second
  436.    fileserver was then moved.
  437.  
  438.    This process was repeated until all the fileservers were moved.
  439.  
  440.    All this happened with users on client workstations continuing
  441.    to use the cell's filespace. Unless a user saw a fileserver
  442.    being physically moved (s)he would have no way to tell the change
  443.    had taken place.
  444.  
  445.    Finally, the AFS clients were moved - this was noticed!
  446.  
  447. Subject: 1.06  Which systems is AFS available for?
  448.  
  449.    AFS runs on systems from: HP, Next, DEC, IBM and SUN.
  450.  
  451.    Transarc customers have done ports to Crays, and the 3090, but all
  452.    are based on some flavour of unix.  Some customers have done work to
  453.    make AFS data available to PCs and Macs, although they are using
  454.    something similar to the AFS/NFS translator (a system that enables
  455.    "NFS only" clients to NFS mount the AFS filetree /afs).
  456.  
  457.    The following list (current at time of writing) is for AFS version 3.3
  458.    (check with Transarc for the most up-to-date list).
  459.  
  460.    This information can also be found on grand.central.org:
  461.  
  462.       via AFS: /afs/grand.central.org/pub/afsps/doc/SUPPORTED_SYSTEMS.afs.*
  463.       via FTP: grand.central.org:/pub/afsps/doc/SUPPORTED_SYSTEMS.afs.*
  464.  
  465.    System-name     CPU and Operating System
  466.  
  467.    hp300_ux90      Hewlett Packard 9000 Series 300/400 running HP-UX 9.0
  468.    hp700_ux90      Hewlett Packard 9000 Series 700 running HP-UX 9.0
  469.    hp800_ux90      Hewlett Packard 9000 Series 800 running HP-UX 9.0
  470.    next_mach20     NeXT (68030 or 68040 systems) running NeXT OS Rel 2.0,2.1
  471.    next_mach30     NeXT (68030 or 68040 systems) running NeXT OS Rel 3.0
  472.    pmax_ul43       DECstation 2100, 3100 or 5000 (single processor)
  473.                    running Ultrix 4.3
  474.    rs_aix32        IBM RS/6000 running AIX 3.2, 3.2.1 and 3.2.2
  475.    rt_aix221       IBM RT/PC running AIX 2.2.1
  476.    rt_aos4         IBM-RT/PC running AOS Release 4
  477.    sgi_51          Silicon Graphics running IRIX 5.1
  478.    sun3_411        Sun 3 (68020 systems) running Sun OS 4.1.1
  479.    sun3x_411       Sun 3 (68030 systems) running Sun OS 4.1.1
  480.    sun4_411        Sun 4 (EXCEPT SparcStations) running Sun OS 4.1.1, 4.1.2 or
  481.                    4.1.3
  482.    sun4_52         Sun 4 (EXCEPT SparcStations) running Solaris 2.2
  483.    sun4c_411       Sun SparcStations running Sun OS 4.1.1, 4.1.2 or 4.1.3
  484.    sun4c_52        Sun SparcStations running Solaris 2.2
  485.    sun4m_412       Sun SparcServer 600MP running Sun OS 4.1.2/Solaris 1.0,
  486.                    4.1.3/Solaris 2.1
  487.    sun4m_52        Sun SparcServer 600MP running Solaris 2.2
  488.    vax_ul43        VAX systems running Ultrix 4.3 (single processor).
  489.  
  490.    There are also ports of AFS done by customers available from Transarc
  491.    on an "as is" unsupported basis.
  492.  
  493.    More information on this can be found on grand.central.org:
  494.  
  495.       via AFS: /afs/grand.central.org/pub/afs-contrib/bin/README
  496.       via FTP: grand.central.org:/pub/afs-contrib/bin/README
  497.  
  498.    These ports of AFS client code include:
  499.  
  500.       HP (Apollo) Domain OS - by Jim Rees at the University of Michigan.
  501.       sun386i - by Derek Atkins and Chris Provenzano at MIT.
  502.  
  503. Subject: 1.07  What does "ls /afs" display in the Internet AFS filetree?
  504.  
  505.    Essentially this displays the AFS cells that co-operate in the
  506.    Internet AFS filetree.
  507.  
  508.    Note that the output of this will depend on the cell you do it from;
  509.    a given cell may not have all the publicly advertised cells available,
  510.    and it may have some cells that aren't advertised outside of the given site.
  511.  
  512.    The definitive source for this information is:
  513.  
  514.            /afs/transarc.com/service/etc/CellServDB.export
  515.  
  516.    I've included the list of cell names included in it below:
  517.    uni-freiburg.de         #Albert-Ludwigs-Universitat Freiburg
  518.    anl.gov                 #Argonne National Laboratory
  519.    bcc.ac.uk               #Bloomsbury Computing Consortium
  520.    bstars.com              #Boeing Aerospace and Electronics/STARS
  521.    bu.edu                  #Boston University
  522.    cs.brown.edu            #Brown University Department of Computer Science
  523.    ciesin.org              #CIESIN
  524.    cards.com               #Cards - Electronic Warfare Associates
  525.    cmu.edu                 #Carnegie Mellon University
  526.    andrew.cmu.edu          #Carnegie Mellon University - Campus
  527.    ce.cmu.edu              #Carnegie Mellon University - Civil Eng. Dept.
  528.    club.cc.cmu.edu         #Carnegie Mellon University Computer Club
  529.    cs.cmu.edu              #Carnegie Mellon University - School of Comp. Sci.
  530.    ece.cmu.edu             #Carnegie Mellon University - Elec. Comp. Eng. Dept.
  531.    me.cmu.edu              #Carnegie Mellon University - Mechanical Engineering
  532.    others.chalmers.se      #Chalmers University of Technology - General users
  533.    cs.cornell.edu          #Cornell University Computer Science Department
  534.    graphics.cornell.edu    #Cornell University Program of Computer Graphics
  535.    theory.cornell.edu      #Cornell University Theory Center
  536.    msc.cornell.edu         #Cornell University Materials Science Center
  537.    pegasus.cranfield.ac.uk #Cranfield Insitute of Technology
  538.    grand.central.org       #DARPA Central File Server at Transarc
  539.    hrzone.th-darmstadt.de  #TH-Darmstadt
  540.    kiewit.dartmouth.edu    #Dartmouth College, Kiewit
  541.    northstar.dartmouth.edu #Dartmouth College, Project Northstar
  542.    es.net                  #Energy Sciences Net
  543.    cern.ch                 #European Laboratory for Particle Physics, Geneva
  544.    fnal.gov                #Fermi National Acclerator Laboratory
  545.    jrc.flinders.edu.au     #Flinders School of Info. Sci. and Tech. - Australia
  546.    hepafs1.hep.net         #FNAL HEPNET cell 1
  547.    pub.nsa.hp.com          #HP Cupertino
  548.    palo_alto.hpl.hp.com    #HP Palo Alto
  549.    ctp.se.ibm.com          #IBM/4C, Chalmers, Sweden
  550.    ibm.uk                  #IBM UK, AIX Systems Support Centre
  551.    inel.gov                #Idaho National Engineering Lab
  552.    iastate.edu             #Iowa State University
  553.    ipp-garching.mpg.de     #Institut fuer Plasmaphysik
  554.    sfc.keio.ac.jp          #Keio University, Japan
  555.    cc.keio.ac.jp           #Keio University, Fac. of Sci. & Tech. Computing Ctr
  556.    lrz-muenchen.de         #Leibniz-Rechenzentrum Muenchen Germany
  557.    athena.mit.edu          #MIT/Athena cell
  558.    rel-eng.athena.mit.edu  #MIT/Athena Release Engineering (primary sources)
  559.    net.mit.edu             #MIT/Network Group cell
  560.    sipb.mit.edu            #MIT/SIPB cell
  561.    media-lab.mit.edu       #MIT/Media Lab cell
  562.    mtxinu.com              #mt Xinu Incorporated
  563.    nada.kth.se             #Royal Institute of Technology, NADA
  564.    nce_ctc                 #National Computational Env. - Cornell Theory Center
  565.    nce                     #National Computing Environment  - wide area cell
  566.    nce_psc                 #National Computing Environment (Metacenter)
  567.    nersc.gov               #National Energy Research Supercomputer Center
  568.    alw.nih.gov             #National Institutes of Health
  569.    test.alw.nih.gov        #National Institutes of Health (test cell)
  570.    cmf.nrl.navy.mil        #Naval Research Lab
  571.    ncat.edu                #North Carolina Agricultural and Technical State U.
  572.    nsf-centers.edu         #NSF Supercomputing Centers
  573.    ctd.ornl.gov            #Computing and Telecommunications Div ORNL
  574.    ri.osf.org              #OSF Research Institute
  575.    gr.osf.org              #OSF Research Institute, Grenoble
  576.    vfl.paramax.com         #Paramax (Unisys) Paoli Research Center
  577.    stars.reston.unisys.com #Paramax (Unisys) - Reston, Va.
  578.    psc.edu                 #PSC (Pittsburgh Supercomputing Center)
  579.    rwcp.or.jp              #Real World Computer Partnership(rwcp)
  580.    rhrk.uni-kl.de          #Rechenzentrum University of Kaiserslautern
  581.    rus.uni-stuttgart.de    #Rechenzentrum University of Stuttgart
  582.    ihf.uni-stuttgart.de    #University of Stuttgart, Ins. fuer Hochfrequenz-Tec
  583.    rpi.edu                 #Rensselaer Polytechnic Institute
  584.    rose-hulman.edu         #Rose-Hulman Institute of Technology
  585.    dsg.stanford.edu        #Stanford Univ. - Comp. Sci. - Distributed Systems
  586.    ir.stanford.edu         #Stanford University
  587.    slac.stanford.edu       #Stanford Linear Accelerator Center
  588.    stars.com               #STARS Technology Center - Ballston, Va.
  589.    ssc.gov                 #Superconducting Supercollider Lab
  590.    ethz.ch                 #Swiss Federal Inst. of Tech. - Zurich, Switzerland
  591.    telos.com               #Telos Systems Group - Chantilly, Va.
  592.    titech.ac.jp            #Tokyo Institute of Technology
  593.    transarc.com            #Transarc Corporation
  594.    cs.arizona.edu          #University of Arizona - Computer Science Dept.
  595.    ece.ucdavis.edu         #Univ California - Davis campus
  596.    spc.uchicago.edu        #University of Chicago - Social Sciences
  597.    rrz.uni-koeln.de        #University of Cologne -  Reg Comp Center
  598.    urz.uni-heidelberg.de   #Universitaet Heidelberg
  599.    uni-hohenheim.de        #University of Hohenheim
  600.    ncsa.uiuc.edu           #University of Illinois
  601.    wam.umd.edu             #University of Maryland Network WAM Project
  602.    umich.edu               #University of Michigan - Campus
  603.    sph.umich.edu           #University of Michigan -- School of Public
  604.    citi.umich.edu          #University of Michigan - IFS Development
  605.    dmsv.med.umich.edu      #University of Michigan - DMSV
  606.    lsa.umich.edu           #University of Michigan - LSA College
  607.    math.lsa.umich.edu      #University of Michigan - Math Cell
  608.    cs.unc.edu              #University of North Carolina at Chapel Hill
  609.    nd.edu                  #University of Notre Dame
  610.    pitt.edu                #University of Pittsburgh
  611.    rus-cip.uni-stuttgart.de #RUS Cip-Pool,Rechenzentrum University of Stuttgart
  612.    mathematik.uni-stuttgart.de #University of Stuttgart, Math Dept.
  613.    isi.edu                 #University of Southern California/ISI
  614.    cs.utah.edu             #University of Utah Computer Science Dept
  615.    cs.washington.edu       #University of Washington Comp Sci Department
  616.    cs.wisc.edu             #University of Wisconsin-Madison, Computer S
  617.    ucop.edu                #University of California Office of the President
  618.  
  619.    This shows different and widespread organizations making use
  620.    of the Internet AFS filetree.
  621.  
  622.    Note that it is also possible to use AFS "behind the firewall"
  623.    within the confines of your organization's network - you don't have
  624.    to participate in the Internet AFS filetree.
  625.  
  626.    Indeed, there are lots of benefits of using AFS on a local area network
  627.    without using the WAN capabilities.
  628.  
  629. Subject: 1.08  Why does AFS use Kerberos authentication?
  630.  
  631.    It improves security.
  632.  
  633.    Kerberos uses the idea of a trusted third party to prove identification.
  634.    This is a bit like using a letter of introduction or quoting a referee
  635.    who will vouch for you.
  636.  
  637.    When a user authenticates using the klog command (s)he is prompted
  638.    for a password. If the password is accepted the Kerberos
  639.    Authentication Server (KAS) provides the user with an encrypted token
  640.    (containing a "ticket granting ticket").
  641.  
  642.    From that point on, it is the encrypted token that is used to prove
  643.    the user's identity. These tokens have a limited lifetime (typically
  644.    a day) and are useless when expired.
  645.  
  646.    In AFS, it is possible to authenticate into multiple AFS cells.
  647.    A summary of the current set of tokens held can be displayed
  648.    by using the "tokens" command.
  649.  
  650.    For example:
  651.       elmer@toontown $ tokens
  652.  
  653.       Tokens held by the Cache Manager:
  654.  
  655.       User's (AFS ID 9997) tokens for afs@ny.acme.com [Expires Sep 15 06:50]
  656.       User's (AFS ID 5391) tokens for afs@sf.acme.com [Expires Sep 15 06:48]
  657.          --End of list--
  658.  
  659.    Kerberos improves security because a users's password need only be
  660.    entered once (at klog time).
  661.  
  662.    AFS uses Kerberos to do complex mutual authentication which means that
  663.    both the service requester and the service provider have to prove their
  664.    identities before a service is granted.
  665.  
  666.    Transarc's implementation of Kerberos is slightly different from
  667.    MIT Kerberos V4 but AFS can work with either version.
  668.  
  669.    For more detail on this and other Kerberos issues see the faq
  670.    for Kerberos (posted to news.answers and comp.protocols.kerberos) [28].
  671.    (Also, see [15], [16], [26], [27])
  672.  
  673. Subject: 2  Using AFS
  674.  
  675. Subject: 2.01  What are the differences between AFS and a unix filesystem?
  676.  
  677.    Essentially, from a user's point of view, there is little difference
  678.    between AFS and local unix filestore. Nearly all the commands normally
  679.    used to access local files can be used to access files in /afs.
  680.  
  681.    In the following set of sections, I have attempted to "target"
  682.    each section to an appropriate type of user by including to the
  683.    right of each section heading one of: User, Programmer, SysAdmin.
  684.  
  685.    Here is a summary of the differences:
  686.  
  687.    Authentication:                                         [ User ]
  688.  
  689.       Before a user can access protected AFS files (s)he needs to become
  690.       authenticated to AFS using the klog command (Kerberos login) to get
  691.       a Kerberos "ticket granting ticket" (called a token from here on).
  692.  
  693.       Without a token, an unauthenticated user is given the AFS identity
  694.       "system:anyuser" and as such is only able to access files in directories
  695.       that have ACLs granting system:anyuser access.
  696.  
  697.       Many systems have the klog function built into the system login program.
  698.       So a user would not even have to know they gain a token on logging in.
  699.       If you use a system where you have to issue the klog command after
  700.       login then you should run the pagsh command first (see below).
  701.  
  702.       AFS provides access control lists to give more precise control
  703.       to users wishing to protect their files (see AFS ACL below).
  704.  
  705.    File permissions:                                       [ User ]
  706.  
  707.       Unix mode bits for group and other are ignored.
  708.       The mode bits for the file owner don't work the way they used to.
  709.  
  710.       Users should protect their AFS files with (directory) ACLs only.
  711.       Just use mode bits to make a file executable.
  712.  
  713.    Data protection with AFS ACLs:                          [ User ]
  714.  
  715.       Some versions of unix (eg IBM's AIX version 3) allow ACLs on
  716.       local files. In AFS, ACLs protect directories and used with
  717.       AFS protection groups (see below) provide a finer granularity
  718.       of protection than can be achieved with basic unix file permissions.
  719.       (AFS ACLs are described in more detail below.)
  720.  
  721.    Protection groups:                                      [ User ]
  722.  
  723.       Users can create and maintain their own protection groups in AFS -
  724.       as opposed to unix where only sys admins can manage protection groups.
  725.  
  726.    Hard links:                                             [ User ]
  727.  
  728.       In AFS, hard links (eg: ln old new) are only valid within a directory.
  729.       This is because AFS ACLs protect directories (not individual files)
  730.       and allowing hard links that span directories would subvert ACL
  731.       protection.
  732.  
  733.       Symbolic links work in AFS because they reference a pathname and
  734.       not an i-node directly. (Hard links reference an i-node directly.)
  735.  
  736.    Changing file protection by moving a file:              [ User ]
  737.  
  738.       Moving a file to a different directory will change the protection
  739.       of a file if the ACL on the new directory if different to the ACL
  740.       on the original directory.
  741.  
  742.    chown and chgrp:                                        [ User ]
  743.  
  744.       Only members of the AFS group "system:administrators" can use these
  745.       commands on files in /afs.
  746.  
  747.    Save on close:                                          [ Programmer ]
  748.  
  749.       AFS Cache Manager does not send file modifications to a file server
  750.       until the close() or fsync() system call.
  751.  
  752.       write() system calls only update the local cache copy on the client.
  753.  
  754.       Note the difference in semantic of writing a file:
  755.  
  756.       local unix file: writes update the file "immediately"
  757.       AFS file:        local cached copy updated "immediately" but
  758.                        the server copy is only updated when the file
  759.                        is closed or fsync'ed.
  760.  
  761.       It is important to understand that most applications (eg: vi, emacs,
  762.       frame, interleaf, wingz, etc) issue the close() system call when
  763.       the user chooses/issues the "save" command in the application.
  764.  
  765.       Users are not required to exit the application to "save" their
  766.       changes back to the server.
  767.  
  768.    byte-range file locking:                                [ Programmer ]
  769.  
  770.       AFS does not support byte-range locking within a file,
  771.       although lockf() and fcntl() calls will return 0 (success).
  772.       The first time a byte-range lock is attempted, AFS will display:
  773.  
  774.       "afs: byte-range lock/unlock ignored; make sure no one else
  775.        else is running this program."
  776.  
  777.    whole file locking:                                     [ Programmer ]
  778.  
  779.       AFS does support advisory locking an entire file with flock().
  780.       Processes on the same client workstation that attempt to lock
  781.       a file obey the proper locking semantics.
  782.  
  783.       Processes on different AFS clients requesting a lock on the same
  784.       file would get EWOULDBLOCK returned.
  785.  
  786.    character and block special files:                      [ SysAdmin ]
  787.  
  788.       AFS does not support character and block special files.
  789.       The mknod command does not create either character or block
  790.       special files in /afs.
  791.  
  792.    AFS version of fsck:                                    [ SysAdmin ]
  793.  
  794.       On an AFS server, the partitions containing served files are NOT
  795.       unix filesystems and standard fsck *must* not be used - use the AFS
  796.       version instead.
  797.  
  798. Subject: 2.02  What is an AFS protection group?
  799.  
  800.    A named list of users.
  801.  
  802.    Group names are used in AFS ACLs to identify lists of users with
  803.    particular access permissions.
  804.  
  805.    In AFS, users can create and maintain their own protection groups.
  806.    This is different to unix where only the system administrator can
  807.    manage /etc/group.
  808.  
  809.    AFS groups are stored in the protection database on fileserver(s)
  810.    and managed by using the "pts" command.
  811.  
  812.    An AFS group typically has the format:
  813.  
  814.        owner-id:group-name
  815.  
  816.    By default, only the owner of a group can change its members.
  817.  
  818.    It is possible to have both users and IP addresses as members
  819.    of an AFS group. By using an IP address like this you can specify
  820.    all the users from the host with that IP address.
  821.  
  822. Subject: 2.03  What are the AFS defined protection groups?
  823.  
  824.    system:anyuser
  825.  
  826.        Everyone who has access to an AFS client in any cell that is
  827.        on the same network as your cell.
  828.  
  829.    system:authuser
  830.  
  831.        Everyone who has access to an AFS client in any cell that is
  832.        on the same network as your cell *and* has valid tokens for
  833.        your cell (ie has been authenticated in your cell).
  834.  
  835.    system:administrators
  836.  
  837.        Users who have privileges to execute some but not all
  838.        system administrator commands.
  839.  
  840. Subject: 2.04  What is an AFS access control list (ACL)?
  841.  
  842.    There is an ACL for every directory in AFS. The ACL specifies
  843.    protection at the directory level (not file level) by listing
  844.    permissions of users and/or groups to a directory. There is a
  845.    maximum of 20 entries on an ACL.
  846.  
  847.    For example:
  848.  
  849.    An AFS ACL is displayed by using the "fs" command as shown below:
  850.  
  851.       tweety@toontown $ fs listacl .
  852.       Access list for . is
  853.       Normal rights:
  854.         fac:coords rlidwka
  855.         system:anyuser rl
  856.  
  857.    This ACL shows that members of the AFS protection group "fac:coords"
  858.    have full access rights to the current directory and "system:anyuser"
  859.    has only read and lookup rights.
  860.  
  861.    The members of "fac:coords" can be determined by accessing the
  862.    protection group database using the "pts" command as shown below:
  863.  
  864.       tweety@toontown $ pts membership fac:coords
  865.       Members of fac:coords (id: -1577) are:
  866.         sylvester
  867.         roadrunner
  868.         yosemite.sam
  869.  
  870. Subject: 2.05  What are the AFS access rights?
  871.  
  872.    In AFS, there are seven access rights that may be set or not set:
  873.  
  874.    lookup          l       Permission to examine the ACL and traverse the
  875.                            directory (needed with most other access rights).
  876.                            Permission to look up filenames in a directory.
  877.    read            r       View the contents of files in the directory
  878.    insert          i       Add new files or sub-directories
  879.    write           w       Modify file contents, use "chmod"
  880.    delete          d       Remove file(s) in directory
  881.    lock            k       Permission for programs to "flock" files
  882.                            in the directory
  883.    administer      a       Ability to change the ACL
  884.  
  885.    There are short-hand forms:
  886.  
  887.    read            rl      read and lookup
  888.    write           rlidwk  all rights except administer
  889.    all             rlidwka
  890.    none                    removes all rights
  891.  
  892. Subject: 2.06  What is pagsh?
  893.  
  894.    A command to get a new shell with a process authentication group (PAG).
  895.  
  896.    This is normally used if your system does not use the AFS version of login.
  897.    It is used to get a PAG prior to running klog.
  898.  
  899.    The PAG uniquely identifies the user to the Cache Manager.
  900.    Without a PAG the Cache Manager uses the unix UID to identify a user.
  901.  
  902. Subject: 2.07  Why use a PAG?
  903.  
  904.    There are two reasons:
  905.  
  906.    a) Child processes inherit the PAG and the Kerberos token so they are AFS
  907.       authenticated.
  908.  
  909.    b) For security: if you don't have a PAG then the Cache Manager identifies
  910.       you by unix UID. Another user with root access to the client could
  911.       su to you and therefore use your token.
  912.  
  913. Subject: 2.08  How can I tell if I have a PAG?
  914.  
  915.    You can tell if you have a PAG by typing "groups". A PAG is indicated
  916.    by the appearance of two integers in the list of groups.
  917.  
  918.    For example:
  919.       sylvester@toontown $ groups
  920.       33536 32533 staff catz
  921.  
  922. Subject: 2.09  Can I still run cron jobs with AFS?
  923.  
  924.    Yes, but remember that in order to fully access files in AFS you have
  925.    to be AFS authenticated. If your cron job doesn't klog then it only
  926.    gets system:anyuser access.
  927.  
  928.    The klog command has a "-pipe" option which will read a password from
  929.    stdin. IF (yes, that's a big if :-) you are prepared to store your
  930.    password in a local (non-AFS) file then you might use the following:
  931.  
  932.       a) create a script to get your AFS token:
  933.  
  934.          #!/bin/sh -
  935.          #
  936.          # NAME      afsgt
  937.          # PURPOSE   Get AFS token by using password stored in a file.
  938.          #           Only need this to run cron jobs that need
  939.          #           authenticated AFS access
  940.          usage() {
  941.                  echo "Usage: afsgt passwordfile" >&2
  942.          }
  943.          if [ -z "${1}" ]; then
  944.                  echo "afsgt error: need name of password file" >&2
  945.                  usage
  946.                  exit 1
  947.          fi
  948.          /usr/afsws/bin/klog -pipe < ${1}
  949.  
  950.       b) Store your password in a local (non-AFS) file that only you
  951.          have access to (perhaps: /home/$USER/.p).
  952.  
  953.          Make sure that this file is mode 600 and also be sure that
  954.          you trust whoever has root access on this system and whoever
  955.          has access to backup tapes! Also, don't forget to change this
  956.          file if you change your AFS password.
  957.  
  958.       c) In your crontab file, run afsgt before whatever task you run.
  959.  
  960.          0 6 * * * /usr/local/bin/afsgt /home/$USER/.p; $HOME/bin/6AMdaily
  961.  
  962. Subject: 2.10  How much disk space does a 1 byte file occupy in AFS?
  963.  
  964.    One kilobyte.
  965.  
  966.    Other filesystems allocate different file block sizes.
  967.    For example, IBM's AIX version 3 journaled file system (JFS)
  968.    uses 4K blocks (exception: 2K for the 160MB disk drive).
  969.  
  970.    Such blocksize differences lead to variations on the amount of
  971.    disk space required to store files. Copying a directory from AFS
  972.    to AIX JFS would require more space in JFS because of the block
  973.    fragmentation.
  974.  
  975.    Example:
  976.  
  977.    a) Create a one byte file in AFS and use "ls -s" to show how many
  978.       kilobytes it occupies:
  979.  
  980.          ariel@atlantica $ echo z >/afs/dsea/tmp/one.byte.file
  981.          ariel@atlantica $ ls -s /afs/dsea/tmp/one.byte.file
  982.             1 /afs/dsea/tmp/one.byte.file
  983.  
  984.    b) Create same file in local filesystem (AIX JFS):
  985.  
  986.          ariel@atlantica $ echo z >/tmp/one.byte.file
  987.          ariel@atlantica $ ls -s /tmp/one.byte.file
  988.             4 /tmp/one.byte.file
  989.  
  990. Subject: 2.11  Is it possible to specify a user who is external
  991.                to the current AFS cell on an ACL?
  992.  
  993.    No. You cannot reference a particular user from another AFS cell.
  994.  
  995.    You can specify an IP address on the ACL; this means any and all
  996.    users from the host with that IP address.
  997.  
  998.    Another solution to this problem is to give the external user an
  999.    "authentication-only" account in your AFS cell. This means that
  1000.    (s)he can klog (but has no home directory) in your cell.
  1001.  
  1002.    Cross-realm authentication (where co-operating cells are able to
  1003.    specify remore users as "user@remote.cell" on an ACL) is an *unsupported*
  1004.    feature of AFS 3.3a. That means that Transarc doesn't promise
  1005.    to make it work for you, nor keep it running in future releases.
  1006.  
  1007. Subject: 2.12  Are there any problems printing files in /afs?
  1008.  
  1009.    The issue of printing in AFS is almost always the same: what do you
  1010.    send to the printing daemon?  Do you send it the bytes you want to
  1011.    print or do you just send the file name containing those bytes?  If
  1012.    you send it a file name, you have to be sure that the printing daemon
  1013.    can read it.  Most daemons run with no AFS tokens, so can't access
  1014.    directories unless they are open for system:anyuser read access.
  1015.    Often, printing commands (lpr, lp, enq) have an option that allows
  1016.    for both modes of operation, though the default behavior varies from
  1017.    system to system.  If you're interested in making your daemons
  1018.    authenticate to AFS, check out the example scripts in AFS-Contrib:
  1019.  
  1020.      /afs/grand.central.org/pub/afs-contrib/tools/reauth-example
  1021.  
  1022.    Another common problem is setuid printing commands.  For instance, the
  1023.    "enq" command runs as root, daemon, or some such user.  If you aren't
  1024.    using the AFS login and simply issue "klog" to get tokens, those
  1025.    tokens are associated with your uid.  When setuid programs run, they
  1026.    lose access to your token and often can't read the file name given as
  1027.    an argument.  The solution in this case is to use "pagsh" before
  1028.    "klog" so that your tokens are transferred to subprocesses
  1029.    automatically by group membership.  This works even if the uid
  1030.    changes, as for setuid programs.
  1031.  
  1032. Subject: 3  AFS administration
  1033.  
  1034. Subject: 3.01  Is there a version of xdm available with AFS authentication?
  1035.  
  1036.    Yes, grand.central.org:pub/afs-contrib/tools/xdm/*
  1037.  
  1038. Subject: 3.02  Is there a version of xlock available with AFS authentication?
  1039.  
  1040.    Yes, grand.central.org:pub/afs-contrib/tools/xlock/*
  1041.  
  1042. Subject: 3.03  How does AFS compare with NFS?
  1043.  
  1044.                                 AFS                          NFS
  1045.    File Access           Common name space from     Different file names from
  1046.                          all workstations           different workstations
  1047.  
  1048.    File Location         Automatic tracking by      Mountpoints to files set by
  1049.    Tracking              file system processes      administrators and users
  1050.                          and databases
  1051.  
  1052.    Performance           Client caching to reduce   No local disk caching;
  1053.                          network load; callbacks    limited cache consistency
  1054.                          to maintain cache consis-
  1055.                          tency
  1056.  
  1057.    Andrew Benchmark      Average time of 210        Average time of 280
  1058.    (5 phases, 8 clients) seconds/client             seconds/client
  1059.  
  1060.    Scaling capabilities  Maintains performance in   Best in small to mid-size
  1061.                          small and very large       installations
  1062.                          installations
  1063.  
  1064.                          Excellent performance on   Best in local-area
  1065.                          wide-area configuration    configurations
  1066.  
  1067.    Security              Kerberos mutual authen-    Security based on
  1068.                          tication                   unencrypted user ID's
  1069.  
  1070.                          Access control lists on    No access control lists
  1071.                          directories for user and
  1072.                          group access
  1073.  
  1074.    Availability          Replicates read-mostly     No replication
  1075.                          data and AFS system
  1076.                          information
  1077.  
  1078.    Backup Operation      No system downtime with    Standard UNIX backup system
  1079.                          specially developed AFS
  1080.                          Backup System
  1081.  
  1082.    Reconfiguration       By volumes (groups of      Per-file movement
  1083.                          files)
  1084.  
  1085.                          No user impact; files      Users lose access to files
  1086.                          remain accessible during   and filenames change
  1087.                          moves, and file names do   (mountpoints need to be
  1088.                          not change                 reset)
  1089.  
  1090.    System Management     Most tasks performed from  Frequently involves telnet
  1091.                          any workstation            to other workstations
  1092.  
  1093.    Autonomous            Autonomous administrative  File servers and clients
  1094.    Architecture          units called cells, in
  1095.                          addition to file servers
  1096.                          and clients
  1097.  
  1098.                          No trust required between  No security distinctions
  1099.                          cells                      between sites
  1100.  
  1101.    [ source: grand.central.org:pub/afsps/doc/afs-nfs.comparison ]
  1102.  
  1103. Subject: 3.04  Given that AFS data is location independent, how does
  1104.                an AFS client determine which server houses the data
  1105.                its user is attempting to access?
  1106.  
  1107.     The Volume Location Database (VLDB) is stored on AFS Database
  1108.     Servers and is ideally replicated across 3 or more Database Server
  1109.     machines.  Replication of the Database ensures high availability
  1110.     and load balances the requests for the data.  The VLDB maintains
  1111.     information regarding the current physical location of all volume
  1112.     data (files and directories) in the cell, including the IP address
  1113.     of the FileServer, and the name of the disk partition the data is
  1114.     stored on.
  1115.  
  1116.     A list of a cell's Database Servers is stored on the local disk of
  1117.     each AFS Client machine as: /usr/vice/etc/CellServDB
  1118.  
  1119.     The Database Servers also house the Kerberos Authentication
  1120.     Database (encrypted user and server passwords), the Protection
  1121.     Database (user UID and protection group information) and the
  1122.     Backup Database (used by System Administrators to backup AFS file
  1123.     data to tape).
  1124.  
  1125. Subject: 3.05  Which protocols does AFS use?
  1126.  
  1127.    AFS may be thought of as a collection of protocols and software
  1128.    processes, nested one on top of the other. The constant interaction
  1129.    between and within these levels makes AFS a very sophisticated software
  1130.    system.
  1131.  
  1132.    At the lowest level is the UDP protocol, which is part of TCP/IP. UDP
  1133.    is the connection to the actual network wire. The next protocol level is
  1134.    the  remote procedure call (RPC).  In general, RPCs allow the developer
  1135.    to build applications using the client/server model, hiding the
  1136.    underlying networking mechanisms. AFS uses Rx, an RPC protocol developed
  1137.    specifically for AFS during its development phase at Carnegie Mellon
  1138.    University.
  1139.  
  1140.    Above the RPC is a series of server processes and interfaces that all
  1141.    use Rx for communication between machines. Fileserver, volserver,
  1142.    upserver, upclient, and bosserver are server processes that export RPC
  1143.    interfaces to allow their user interface commands to request actions and
  1144.    get information. For example, a bos status <machine name> command will
  1145.    examine the bos server process on the indicated file server machine.
  1146.  
  1147.    Database servers use ubik, a replicated database mechanism which is
  1148.    implemented using RPC. Ubik guarantees that the copies of AFS databases
  1149.    of multiple server machines remain consistent. It provides an
  1150.    application programming interface (API) for database reads and writes,
  1151.    and uses RPCs to keep the database synchronized. The database server
  1152.    processes, vlserver, kaserver, and ptserver, reside above ubik. These
  1153.    processes export an RPC interface which allows  user commands to control
  1154.    their operation.  For instance, the pts command is used to communicate
  1155.    with the ptserver, while the command klog  uses the kaserver's RPC
  1156.    interface.
  1157.  
  1158.    Some application programs are quite complex, and draw on RPC interfaces
  1159.    for communication with an assortment of processes. Scout utilizes the
  1160.    RPC interface to file server processes to display and monitor the status
  1161.    of file servers. The uss command interfaces with  kaserver, ptserver,
  1162.    volserver and vlserver to create new user accounts.
  1163.  
  1164.    The Cache Manager also exports an RPC interface. This interface is used
  1165.    principally by file server machines to break callbacks.  It can also be
  1166.    used to obtain Cache Manager status information.  The program cmdebug
  1167.    shows the status of a Cache Manager using this interface.
  1168.  
  1169.    For additional information, Section 1.5 of the AFS System
  1170.    Administrator's Guide and the April 1990 Cache Update contain more
  1171.    information on ubik. Udebug information and short descriptions of all
  1172.    debugging tools were included in the January 1991 Cache Update. Future
  1173.    issues will discuss other debugging tools in more detail.
  1174.  
  1175.    [ source: grand.central.org:pub/cache.update/apr91 ]
  1176.    [ Copyright  1991 Transarc Corporation ]
  1177.  
  1178. Subject: 3.06  Are setuid programs executable across AFS cell boundaries?
  1179.  
  1180.    By default, the setuid bit is ignored but the program may be run
  1181.    (without setuid privilege).
  1182.  
  1183.    It is possible to configure an AFS client to honour the setuid bit
  1184.    (see: "fs setcell". Use with care!).
  1185.  
  1186.    NB: making a program setuid (or setgid) in AFS does *not* mean
  1187.    that the program will get AFS permissions of a user or group.
  1188.    To become AFS authenticated, you have to klog.  If you are not
  1189.    authenticated, AFS treats you as "system:anyuser".
  1190.  
  1191. Subject: 3.07  How does AFS maintain consistency on read-write files?
  1192.  
  1193.    AFS uses a mechanism called "callback".
  1194.  
  1195.    Callback is a promise from the fileserver that the cache version
  1196.    of a file/directory is up-to-date. It is established by the fileserver
  1197.    with the caching of a file.
  1198.  
  1199.    When a file is modified the fileserver breaks the callback.  When the
  1200.    user accesses the file again the Cache Manager fetches a new copy
  1201.    if the callback has been broken.
  1202.  
  1203.    The following paragraphs describe AFS callback mechanism in more detail:
  1204.  
  1205.    If I open() fileA and start reading, and you then open() fileA,
  1206.    write() a change ***and close() or fsync()*** the file to get your
  1207.    changes back to the server - at the time the server accepts and writes
  1208.    your changes to the appropriate location on the server disk, the
  1209.    server also breaks callbacks to all clients to which it issued a copy
  1210.    of fileA.
  1211.  
  1212.    So my client receives a message to break the callback on fileA, which
  1213.    it dutifully does.  But my application (editor, spreadsheet, whatever
  1214.    I'm using to read fileA) is still running, and doesn't really care
  1215.    that the callback has been broken.
  1216.  
  1217.    When something causes the application to read() more of the file
  1218.    the read() system call executes AFS cache manager code via the VFS switch,
  1219.    which does check the callback and therefore gets new copies of the data.
  1220.  
  1221.    Of course, the application may not re-read data that it has already read,
  1222.    but that would also be the case if you were both using the same host.
  1223.    So, for both AFS and local files, I may not see your changes.
  1224.  
  1225.    Now if I exit the application and start it again, or if the
  1226.    application does another open() on the file, then I will see the
  1227.    changes you've made.
  1228.  
  1229.    This information tends to cause tremendous heartache and discontent
  1230.    - but unnecessarily so.  People imagine rampant synchronization problems.
  1231.    In practice this rarely happens and in those rare instances, the data in
  1232.    question is typically not critical enough to cause real problems or
  1233.    crashing and burning of applications.  Over the past 8 years we've found
  1234.    that the synchronization algorithm has been more than adequate in practice
  1235.    - but people still like to worry!
  1236.  
  1237.    The source of worry is that, if I make changes to a file from my
  1238.    workstation, your workstation is not guaranteed to be notified until I
  1239.    close or fsync the file, at which point AFS guarantees that your
  1240.    workstation will be notified.  This is a significant departure from NFS,
  1241.    in which no guarantees are provided.
  1242.  
  1243.    Partially because of the worry factor and largely because of Posix,
  1244.    this will change in DFS.  DFS synchronization semantics are identical
  1245.    to local file system synchronization.
  1246.  
  1247.    [ DFS is the Distributed File System which is part of the Distributed ]
  1248.    [ Computing Environment (DCE).                                        ]
  1249.  
  1250. Subject: 3.08  How can I run daemons with tokens that do not expire?
  1251.  
  1252.    It is not a good idea to run with tokens that do not expire because
  1253.    this would weaken one of the security features of Kerberos.
  1254.  
  1255.    A better approach is to re-authenticate just before the token expires.
  1256.  
  1257.    There are two examples of this that have been contributed to
  1258.    grand.central.org. The first is "reauth":
  1259.  
  1260.    via AFS: /afs/grand.central.org/pub/afs-contrib/tools/reauth*
  1261.    via FTP: grand.central.org:/pub/afs-contrib/tools/reauth*
  1262.  
  1263.    The second is "lat":
  1264.  
  1265.    via AFS: /afs/grand.central.org/pub/afs-contrib/pointers\
  1266.                                 /UMich-lat-authenticated-batch-jobs
  1267.    via FTP: grand.central.org:/pub/afs-contrib/pointers\
  1268.                                 /UMich-lat-authenticated-batch-jobs
  1269.  
  1270. Subject: 3.09  Can I check my user's passwords for security purposes?
  1271.  
  1272.    Yes. Alec Muffett's Crack tool (at version 4.1f) has been converted
  1273.    to work on the Transarc kaserver database. This modified Crack
  1274.    (AFS Crack) is available via anonymous ftp from:
  1275.  
  1276.       export.acs.cmu.edu:/pub/crack.tar.Z
  1277.  
  1278.    and is known to work on: pmax_* sun4*_* hp700_* rs_aix* next_*
  1279.  
  1280.    It uses the file /usr/afs/db/kaserver.DB0, which is the database on
  1281.    the kaserver machine that contains the encrypted passwords. As a bonus,
  1282.    AFS Crack is usually two to three orders of magnitude faster than the
  1283.    standard Crack since there is no concept of salting in a Kerberos database.
  1284.  
  1285.    On a normal UNIX /etc/passwd file, each password can have been encrypted
  1286.    around 4096 (2^12) different saltings of the crypt(3) algorithm, so for
  1287.    a large number of users it is easy to see that a potentially large
  1288.    (up to 4095) number of seperate encryptions of each word checked has
  1289.    been avoided.
  1290.  
  1291.    Author & Contact: Dan Lovinger, del+@cmu.edu
  1292.  
  1293.    Note: AFS Crack does not work for MIT Kerberos Databases.
  1294.          The author is willing to give general guidance to someone interested
  1295.          in doing the (probably minimal) amount of work to port it to do MIT
  1296.          Kerberos. The author does not have access to a MIT Kerberos server
  1297.          to do this.
  1298.  
  1299. Subject: 3.10  Is there a way to automatically balance disk usage across
  1300.                fileservers?
  1301.  
  1302.    Yes. There is a tool, balance, which does exactly this.
  1303.    It can be retrieved via anonymous ftp from:
  1304.  
  1305.       export.acs.cmu.edu:/pub/balance.tar.Z
  1306.  
  1307.    Actually, it is possible to write arbitrary balancing algorithms
  1308.    for this tool. The default set of "agents" provided for the current
  1309.    version of balance balance by usage, # of volumes, and activity per week,
  1310.    the latter currently requiring a source patch to the AFS volserver.
  1311.    Balance is highly configurable.
  1312.  
  1313.    Author: Dan Lovinger, del+@cmu.edu
  1314.  
  1315. Subject: 3.11  Can I shutdown an AFS fileserver without affecting users?
  1316.  
  1317.    Yes, this is an example of the flexibility you have in managing AFS.
  1318.  
  1319.    Before attempting to shutdown an AFS fileserver you have to make
  1320.    some arrangements that any services that were being provided are
  1321.    moved to another AFS fileserver:
  1322.  
  1323.    1) Move all AFS volumes to another fileserver. (Check you have the space!)
  1324.       This can be done "live" while users are actively using files
  1325.       in those volumes with no detrimental effects.
  1326.  
  1327.    2) Make sure that critical services have been replicated on one
  1328.       (or more) other fileserver(s). Such services include:
  1329.  
  1330.          kaserver  - Kerberos Authentication server
  1331.          vlserver  - Volume Location server
  1332.          ptserver  - Protection server
  1333.          buserver  - Backup server
  1334.  
  1335.       It is simple to test this before the real shutdown by issuing:
  1336.  
  1337.          bos shutdown $server $service
  1338.  
  1339.       where: $server is the name of the server to be shutdown
  1340.         and  $service is one (or all) of: kaserver vlserver ptserver buserver
  1341.  
  1342.    Other points to bear in mind:
  1343.  
  1344.    + "vos remove" any RO volumes on the server to be shutdown.
  1345.      Create corresponding RO volumes on the 2nd fileserver after moving the RW.
  1346.      There are two reasons for this:
  1347.  
  1348.      1) An RO on the same partition ("cheap replica") requires less space
  1349.         than a full-copy RO.
  1350.  
  1351.      2) Because AFS always accesses RO volumes in preference to RW,
  1352.         traffic will be directed to the RO and therefore quiesce the load
  1353.         on the fileserver to be shutdown.
  1354.  
  1355.    + If the system to be shutdown has the lowest IP address there may be a
  1356.      brief delay in authenticating because of timeout experienced before
  1357.      contacting a second kaserver.
  1358.  
  1359. Subject: 3.12  How can I set up mail delivery to users with $HOMEs in AFS?
  1360.  
  1361.    There are many ways to do this. Here, only two methods are considered:
  1362.  
  1363.    Method 1: deliver into local filestore
  1364.  
  1365.    This is the simplest to implement. Set up your mail delivery to
  1366.    append mail to /var/spool/mail/$USER on one mailserver host.
  1367.    The mailserver is an AFS client so users draw their mail out of
  1368.    local filestore into their AFS $HOME (eg: inc).
  1369.  
  1370. U  Note that if you expect your (AFS unauthenticated) mail delivery program
  1371.    to be able to process .forward files in AFS $HOMEs then you need to
  1372.    add "system:anyuser rl" to each $HOMEs ACL.
  1373.  
  1374.    The advantages are:
  1375.  
  1376.       + Simple to implement and maintain.
  1377.       + No need to authenticate into AFS.
  1378.  
  1379.    The drawbacks are:
  1380.  
  1381.       - It doesn't scale very well.
  1382.       - Users have to login to the mailserver to access their new mail.
  1383.       - Probably less secure than having your mailbox in AFS.
  1384.       - System administrator has to manage space in /var/spool/mail.
  1385.  
  1386.    Method 2: deliver into AFS
  1387.  
  1388.    This takes a little more setting up than the first method.
  1389.  
  1390.    First, you must have your mail delivery daemon AFS authenticated
  1391.    (probably as "postman"). The reauth example on grand.central.org
  1392.    shows how a daemon can renew its token. You will also need to setup
  1393.    the daemon startup soon after boot time to klog (see the -pipe option).
  1394.  
  1395.    Second, you need to set up the ACLs so that "postman" has lookup rights
  1396.    down to the user's $HOME and "lik" on $HOME/Mail.
  1397.  
  1398.    Advantages:
  1399.  
  1400.       + Scales better than first method.
  1401.       + Delivers to user's $HOME in AFS giving location independence.
  1402.       + Probably more secure than first method.
  1403.       + User responsible for space used by mail.
  1404.  
  1405.    Disadvantages:
  1406.  
  1407.       - More complicated to set up.
  1408.       - Need to correctly set ACLs down to $HOME/Mail for every user.
  1409.       - Probably need to store postman's password in a file so that
  1410.         the mail delivery daemon can klog after boot time.
  1411.         This may be OK if the daemon runs on a relatively secure host.
  1412.  
  1413. Subject: 3.13  Should I replicate a ReadOnly volume on the same partition
  1414.                and server as the ReadWrite volume?
  1415.  
  1416.    Yes, Absolutely! It improves the robustness of your served volumes.
  1417.  
  1418.    If ReadOnly volumes exist (note use of term *exist* rather than
  1419.    *are available*), Cache Managers will *never* utilize the ReadWrite
  1420.    version of the volume. The only way to access the RW volume is via
  1421.    the "dot" path (or by special mounting).
  1422.  
  1423.    This means if *all* RO copies are on dead servers, are offline, are
  1424.    behind a network partition, etc, then clients will not be able to get
  1425.    the data, even if the RW version of the volume is healthy, on a healthy
  1426.    server and in a healthy network.
  1427.  
  1428.    However, you are *very* strongly encouraged to keep one RO copy of a
  1429.    volume on the *same server and partition* as the RW. There are two
  1430.    reasons for this:
  1431.  
  1432.    1) The RO that is on the same server and partition as the RW is a clone
  1433.       (just a copy of the header - not a full copy of each file).
  1434.       It therefore is very small, but provides access to the same set of files
  1435.       that all other (full copy) ReadOnly volume do.
  1436.       Transarc trainers refer to this as the "cheap replica".
  1437.  
  1438.    2) To prevent the frustration that occurs when all your ROs are unavailable
  1439.       but a perfectly healthy RW was accessible but not used.
  1440.  
  1441.       If you keep a "cheap replica", then by definition, if the RW is available,
  1442.       one of the RO's is also available, and clients will utilize that site.
  1443.  
  1444. Subject: 3.14  Should I start AFS before NFS in /etc/inittab?
  1445.  
  1446.    Yes, it is possible to run both AFS and NFS on the same system but
  1447.    you should start AFS first.
  1448.  
  1449.    In IBM's AIX 3.2, your /etc/inittab would contain:
  1450.  
  1451.       rcafs:2:wait:/etc/rc.afs > /dev/console 2>&1 # Start AFS daemons
  1452.       rcnfs:2:wait:/etc/rc.nfs > /dev/console 2>&1 # Start NFS daemons
  1453.  
  1454.    With AIX, you need to load NFS kernel extensions before the AFS KEs
  1455.    in /etc/rc.afs like this:
  1456.  
  1457.       #!/bin/sh -
  1458.       # example /etc/rc.afs for an AFS fileserver running AIX 3.2
  1459.       #
  1460.       echo "Installing NFS kernel extensions (for AFS+NFS)"
  1461.       /etc/gfsinstall -a /usr/lib/drivers/nfs.ext
  1462.       echo "Installing AFS kernel extensions..."
  1463.       D=/usr/afs/bin/dkload
  1464.       ${D}/cfgexport -a ${D}/export.ext
  1465.       ${D}/cfgafs    -a ${D}/afs.ext
  1466.       /usr/afs/bin/bosserver &
  1467.  
  1468. Subject: 3.15  Will AFS run on a multi-homed fileserver?
  1469.  
  1470.    (multi-homed = host has more than one network interface.)
  1471.  
  1472.    Yes, it will. However, AFS was designed for hosts with a single IP address.
  1473.    There can be problems if you have one host name being resolved to several
  1474.    IP addresses.
  1475.  
  1476.    Transarc suggest designating unique hostnames for each network interface.
  1477.    For example, a host called "spot" has two tokenring and one ethernet
  1478.    interfaces: spot-tr0, spot-tr1, spot-en0.
  1479.    Then, select which interface will be used for AFS and use that hostname
  1480.    in the CellServDB file (eg: spot-tr0).
  1481.  
  1482.    You also have to remember to use the AFS interface name with any AFS
  1483.    commands that require a server name (eg: vos listvol spot-tr0).
  1484.  
  1485.    There is a more detailed discussion of this in the August 1993 issue
  1486.    of "Cache Update" (see: /afs/grand.central.org/pub/cache.update/aug93).
  1487.  
  1488.    The simplest way of dealing with this is to make your AFS fileservers
  1489.    single-homed (eg only use one network interface).
  1490.  
  1491.  
  1492. Subject: 3.16  Can I replicate my user's home directory AFS volumes?
  1493.  
  1494.    No.
  1495.  
  1496.    Users with $HOMEs in /afs normally have an AFS ReadWrite volume
  1497.    mounted in their home directory.
  1498.  
  1499.    You can replicate a RW volume but only as a ReadOnly volume
  1500.    and there can only be one instance of a ReadWrite volume.
  1501.  
  1502.    In theory, you could have RO copies of a user's RW volume
  1503.    on a second server but in practice this won't work for the
  1504.    following reasons:
  1505.  
  1506.    a) AFS has built-in bias to always access the RO copy of a RW volume.
  1507.       So the user would have a ReadOnly $HOME which is not too useful!
  1508.  
  1509.    b) Even if a) was not true you would have to arrange frequent
  1510.       synchronisation of the RO copy with the RW volume (for example:
  1511.       "vos release user.fred; fs checkv") and this would have to be
  1512.       done for all such user volumes.
  1513.  
  1514.    c) Presumably, the idea of replicating is to recover the $HOME
  1515.       in the event of a server crash. Even if a) and b) were not
  1516.       problems consider what you might have to do to recover a $HOME:
  1517.  
  1518.       1) Create a new RW volume for the user on the second server
  1519.          (perhaps named "user.fred.2").
  1520.  
  1521.       2) Now, where do you mount it?
  1522.  
  1523.          The existing mountpoint cannot be used because it already has
  1524.          the ReadOnly copy of the original volume mounted there.
  1525.  
  1526.          Let's choose: /afs/MyCell/user/fred.2
  1527.  
  1528.       3) Copy data from the RO of the original into the new RW volume
  1529.          user.fred.2
  1530.  
  1531.       4) Change the user's entry in the password file for the new $HOME:
  1532.          /afs/MyCell/user/fred.2
  1533.  
  1534.       You would have to attempt steps 1 to 4 for every user who had
  1535.       their RW volume on the crashed server. By the time you had done
  1536.       all of this, the crashed server would probably have rebooted.
  1537.  
  1538.       The bottom line is: you cannot replicate $HOMEs across servers.
  1539.  
  1540. Subject: 3.17  Which TCP/IP ports and protocols do I need to enable
  1541.                in order to operate AFS through my Internet firewall?
  1542.  
  1543.    Assuming you have already taken care of nameserving, you may wish to
  1544.    use an Internet timeserver for Network Time Protocol:
  1545.  
  1546.       ntp             123/tcp
  1547.  
  1548.    A list of NTP servers is available via anonymous FTP from:
  1549.  
  1550.       louie.udel.edu:/pub/ntp/doc/clock.txt
  1551.  
  1552.    For a "minimal" AFS service which does not allow inbound or outbound klog:
  1553.  
  1554.       fileserver      7000/udp
  1555.       cachemanager    7001/udp
  1556.       ptserver        7002/udp
  1557.       vlserver        7003/udp
  1558.       kaserver        7004/udp
  1559.       volserver       7005/udp
  1560.       reserved        7006/udp
  1561.       bosserver       7007/udp
  1562.  
  1563.    (Ports in the 7020-7029 range are used by the AFS backup system,
  1564.     and won't be needed by external clients performing simple file accesses.)
  1565.  
  1566.    Additionally, For "klog" to work through the firewall you need to
  1567.    allow inbound and outbound UDP on ports >1024 (probably 1024<port<2048
  1568.    would suffice depending on the number of simultaneous klogs).
  1569.  
  1570. Subject: 3.18  What is the Andrew Benchmark?
  1571.  
  1572.    "It is a script that operates on a collection of files constituting
  1573.    an application program. The operations are intended to represent typical
  1574.    actions of an average user. The input to the benchmark is a source tree
  1575.    of about 70 files. The files total about 200 KB in size. The benchmark
  1576.    consists of five distinct phases:
  1577.  
  1578.      I MakeDir - Construct a target subtree that is identical to the
  1579.                  source subtree.
  1580.     II Copy    - Copy every file from the source subtree to the target subtree.
  1581.    III ScanDir - Traverse the target subtree and examine the status
  1582.                  of every file in it.
  1583.     IV ReadAll - Scan every byte of every file in the target subtree.
  1584.      V Make    - Complete and link all files in the target subtree."
  1585.  
  1586.    [ source: ]
  1587.    [ grand.central.org:pub/afs-contrib/doc/benchmark/Andrew.Benchmark.ps ]
  1588.    [ /afs/grand.central.org/pub/afs-contrib/doc/benchmark/Andrew.Benchmark.ps ]
  1589.  
  1590. Subject: 3.19  Is there a version of HP VUE login with AFS authentication?
  1591.  
  1592.    Yes, the availability of this is described in:
  1593.  
  1594.       /afs/transarc.com/public/afs-contrib/pointers/HP-VUElogin.txt
  1595.  
  1596. Subject: 4  Getting more information
  1597.  
  1598. Subject: 4.01  Is there an anonymous FTP site with AFS information?
  1599.  
  1600.    Yes, it is: grand.central.org [192.54.226.100].
  1601.  
  1602.    A brief summary of contents:
  1603.  
  1604.    Directory                    Contents
  1605.  
  1606.    pub/cache-update             AFS user group newsletters
  1607.    pub/afs-contrib              Contributed tools and documents
  1608.    pub/afsps/doc                release notes, SUPPORTED_SYSTEMS.afs.*
  1609.    pub/afsug                    AFS user group (see README for detail)
  1610.    darpa/doc/afs/specs/progint  AFS programming interface docs
  1611.  
  1612.    grand.central.org also participates in the Internet AFS filetree.
  1613.  
  1614. Subject: 4.02  Which USENET newsgroups discuss AFS?
  1615.  
  1616.    alt.filesystems.afs and occasionally in comp.unix.admin
  1617.  
  1618. Subject: 4.03  Where can I get training in AFS?
  1619.  
  1620.    Transarc provide user and administrator courses.
  1621.    These can be provided at the customer site or at Transarc's offices.
  1622.  
  1623.    Transarc's education coordinator may be contacted by:
  1624.  
  1625.       telephone: +1 412 338 4363    email: education@transarc.com
  1626.  
  1627. Subject: 5  About the AFS faq
  1628.  
  1629.    This compilation is dedicated to those who inspire through good humour,
  1630.    enthusiasm, wit and wisdom.
  1631.  
  1632. Subject: 5.01  How can I get a copy of the AFS faq?
  1633.  
  1634.    There are several ways:
  1635.  
  1636.    The best way to access the AFS faq is via AFS so you see the
  1637.    latest version. If you take a copy via FTP or email your copy
  1638.    can only be a snapshot of this changing file.
  1639.  
  1640.    via AFS: /afs/grand.central.org/pub/afs-contrib/doc/faq/afs.faq
  1641.             /afs/ibm.uk/public/doc/afs.faq
  1642.             /afs/aixssc.uk.ibm.com/public/doc/afs.faq
  1643.  
  1644.    via FTP: grand.central.org:/pub/afs-contrib/doc/faq/afs.faq
  1645.             rtfm.mit.edu:/pub/usenet/news.answers/afs-faq
  1646.             ftp.aixssc.uk.ibm.com:/pub/src/afs.faq
  1647.  
  1648.    via World Wide Web:
  1649.             http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1650.  
  1651.    via email:
  1652.             mail -s afs.faq auto-send@mailserver.aixssc.uk.ibm.com </dev/null
  1653.  
  1654.    via USENET news:
  1655.  
  1656.             From time to time this faq will be posted to the USENET newsgroups:
  1657.                alt.filesystems.afs alt.answers news.answers
  1658.  
  1659.    If you have no luck with any of the above methods, send email to
  1660.    mpb@acm.org (Paul Blackburn) and I will be pleased to send you a
  1661.    copy of the AFS faq.
  1662.  
  1663. Subject: 5.02  How can I get my question (and answer) into the AFS faq?
  1664.  
  1665.    Comments and contributions are welcome, please send to: mpb@acm.org
  1666.  
  1667.    I am looking for reviewers to help me check the material here, please
  1668.    let me know if you would like to help.
  1669.  
  1670. Subject: 5.03  How can I access the AFS faq via the World Wide Web?
  1671.  
  1672.    To access the World Wide Web you either need your own browser
  1673.    or have telnet access to WWW servers.
  1674.  
  1675.    WWW browsers exist for most machines. Here's a list of some browsers;
  1676.  
  1677.       Name     System/requirements           Available from (among others)
  1678.       ====     ===================           ==============
  1679.       Mosaic   X windows, MS-Windows, Mac    ftp.ncsa.uiuc.edu  /Web
  1680.       lynx     vt100                         ftp.wustl.edu /packages/www/lynx
  1681.  
  1682.    From your own browser, OPEN or GO to the following document:
  1683.  
  1684.       http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1685.  
  1686.    It is much better to run your own browser but if this is not possible
  1687.    there are several WWW servers accessible via telnet:
  1688.  
  1689.    +  telnet info.cern.ch
  1690.       then type:
  1691.          go http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1692.  
  1693.    +  telnet www.njit.edu                 (login: www)
  1694.       then type:
  1695.          g
  1696.          http://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1697.  
  1698.    +  telnet  ukanaix.cc.ukans.edu        (login: www) needs vt100
  1699.       then type:
  1700.          ghttp://www.cis.ohio-state.edu/hypertext/faq/usenet/afs-faq/faq.html
  1701.  
  1702. Subject: 6  Bibliography
  1703.  
  1704.    If documentation is available via anonymous FTP it is indicated
  1705.    in square brackets like:
  1706.  
  1707.     [ athena-dist.mit.edu:pub/kerberos/doc/usenix.PS ]
  1708.  
  1709.     where: athena-dist.mit.edu is the anonymous FTP site and
  1710.            pub/kerberos/doc/usenix.PS is the filename
  1711.  
  1712.    Similarly, for those who have appropriate access, documents available
  1713.    via AFS are shown with the format:
  1714.  
  1715.    [ /afs/........ ]
  1716.  
  1717.    [1] John H Howard, Michael L Kazar, Sherri G Menees, David A Nichols,
  1718.        M Satyanarayanan, Robert N Sidebotham, Michael J West
  1719.        "Scale and Performance in a Distributed File System",
  1720.        ACM Transactions on Computer Systems, Vol. 6, No. 1, Feb 1988 pp 51-81.
  1721.  
  1722.    [2] Michael L Kazar,
  1723.        "Synchronisation and Caching Issues in the Andrew File System",
  1724.        USENIX Proceedings, Dallas, TX, Winter 1988
  1725.  
  1726.    [3] Alfred Z Spector, Michael L Kazar,
  1727.        "Uniting File Systems", UNIX Review, March 1989
  1728.  
  1729.    [4] Johna Till Johnson,
  1730.        "Distributed File System brings LAN Technology to WANs",
  1731.        Data Communications, November 1990, pp 66-67.
  1732.  
  1733.    [5] Michael Padovano, PADCOM Associates,
  1734.        "AFS widens your horizons in distributed computing",
  1735.        Systems Integration, March 1991
  1736.  
  1737.    [6] Steve Lammert,
  1738.        "The AFS 3.0 Backup System", LISA IV Conference Proceedings,
  1739.        Colorado Springs, Colorado, October 1990.
  1740.  
  1741.    [7] Michael L Kazar, Bruce W Leverett, Owen T Anderson,
  1742.        Vasilis Apostolides, Beth A Bottos, Sailesh Chutani,
  1743.        Craig F Everhart, W Anthony Mason, Shu-Tsui Tu, Edward R Zayas,
  1744.        "DEcorum File System Architectural Overview",
  1745.        USENIX Conference Proceedings, Anaheim, Texas, Summer 1990.
  1746.  
  1747.    [8] "AFS Drives DCE Selection", Digital Desktop, Vol 1 No 6 Sept 1990.
  1748.  
  1749.    [9] James J Kistler, M Satyanarayanan,
  1750.        "Disconnected Operation in the Coda Filesystem",
  1751.        CMU School of Computer Science technical report, CMU-CS-91-166
  1752.        26th July 1991.
  1753.  
  1754.   [10] Puneet Kumar. M Satyanarayanan,
  1755.        "Log-based Directory Resolution in the Coda File System",
  1756.        CMU School of Computer Science internal document, 2 July 1991.
  1757.  
  1758.   [11] Edward R Zayas,
  1759.        "Administrative Cells: Proposal for Cooperative Andrew File Systems",
  1760.        Information Technology Center internal document,
  1761.        Carnegie-Mellon University, 25th June 1987
  1762.  
  1763.   [12] Ed Zayas, Craig Everhart,
  1764.        "Design and Specification of the Cellular Andrew Environment",
  1765.        Information Technology Center, Carnegie-Mellon University,
  1766.        CMU-ITC-070, 2 August 1988
  1767.  
  1768.   [13] Kazar, Michael L, Information Technology Center,
  1769.        Carnegie-Mellon University,
  1770.        "Ubik - A library for Managing Ubiquitous Data",
  1771.        ITCID, Pittsburgh, PA, 1988
  1772.  
  1773.   [14] Kazar, Michael L, Information Technology Center,
  1774.        Carnegie-Mellon University,
  1775.        "Quorum Completion", ITCID, Pittsburgh, PA, 1988
  1776.  
  1777.   [15] SP Miller, BC Neuman, JI Schiller, JH Saltzer,
  1778.        "Kerberos Authentication and Authorization System",
  1779.        Project Athena technical Plan, Section E.2.1, MIT, December 1987.
  1780.        [ athena-dist.mit.edu:pub/kerberos/doc/techplan.PS ]
  1781.        [ athena-dist.mit.edu:pub/kerberos/doc/techplan.txt ]
  1782.        [ /afs/watson.ibm.com/projects/agora/papers/kerberos/techplan.PS ]
  1783.  
  1784.   [16] Bill Bryant,
  1785.        "Designing an Authentication System: a Dialogue in Four Scenes",
  1786.        Project Athena internal document, MIT, draft of 8th February 1988
  1787.        [ athena-dist.mit.edu:pub/kerberos/doc/dialog.PS ]
  1788.        [ athena-dist.mit.edu:pub/kerberos/doc/dialog.mss ]
  1789.        [ /afs/watson.ibm.com/projects/agora/papers/kerberos/dialog.PS ]
  1790.  
  1791.   [17] Edward R Zayas,
  1792.        "AFS-3 Programmer's Reference: Architectural Overview",
  1793.        Transarc Corporation, FS-00-D160, September 1991
  1794.        [ grand.central.org:darpa/doc/afs/specs/progint/archov/archov-doc.ps ]
  1795.        [ /afs/watson.ibm.com/projects/agora/papers/afs/archov-doc.ps ]
  1796.  
  1797.   [18] "AFS Programmer's Reference: Authentication Server Interface",
  1798.        Transarc Corporation, 12th April 1993
  1799.        [ grand.central.org:darpa/doc/afs/specs/progint/arsv/asrv-ispec.ps ]
  1800.        [ /afs/watson.ibm.com/projects/agora/papers/afs/asrv-ispec.ps ]
  1801.  
  1802.   [19] Edward R Zayas,
  1803.        "AFS-3 Programmer's Reference: BOS Server Interface",
  1804.        Transarc Corporation, FS-00-D161, 28th August 1991
  1805.        [ grand.central.org:darpa/doc/afs/specs/progint/bsrv/bsrv-spec.ps ]
  1806.        [ /afs/watson.ibm.com/projects/agora/papers/afs/bsrv-spec.ps ]
  1807.  
  1808.   [20] Edward R Zayas,
  1809.        "AFS-3 Programmer's Reference: File Server/Cache Manager Interface",
  1810.        Transarc Corporation, FS-00-D162, 20th August 1991
  1811.        [ grand.central.org:darpa/doc/afs/specs/progint/fscm/fscm-ispec.ps ]
  1812.        [ /afs/watson.ibm.com/projects/agora/papers/afs/fscm-ispec.ps ]
  1813.  
  1814.   [21] Edward R Zayas,
  1815.        "AFS-3 Programmer's Reference:
  1816.               Specification for the Rx Remote Procedure Call Facility",
  1817.        Transarc Corporation, FS-00-D164, 28th August 1991
  1818.        [ grand.central.org:darpa/doc/afs/specs/progint/rx/rx-spec.ps ]
  1819.        [ /afs/watson.ibm.com/projects/agora/papers/afs/rx-spec.ps ]
  1820.  
  1821.   [22] Edward R Zayas,
  1822.        "AFS-3 Programmer's Reference:
  1823.               Volume Server/Volume Location Server Interface",
  1824.        Transarc Corporation, FS-00-D165, 29th August 1991
  1825.        [ grand.central.org:darpa/doc/afs/specs/progint/vvl/vvl-spec.ps ]
  1826.        [ /afs/watson.ibm.com/projects/agora/papers/afs/vvl-spec.ps ]
  1827.  
  1828.   [23] "AFS User Guide",
  1829.         Transarc Corporation, FS-D200-00.08.3
  1830.  
  1831.   [24] "AFS Commands Reference Manual",
  1832.         Transarc Corporation, FS-D200-00.11.3
  1833.  
  1834.   [25] "AFS Systems Administrators Guide",
  1835.         Transarc Corporation, FS-D200-00.10.3
  1836.  
  1837.   [26] Steven M. Bellovin, Michael Merritt
  1838.        "Limitations of the Kerberos Authentication System",
  1839.        Computer Communications Review, October 1990, Vol 20 #5, pp. 119-132
  1840.        [ research.att.com:/dist/internet_security/kerblimit.usenix.ps ]
  1841.        [ /afs/watson.ibm.com/projects/agora/papers/kerberos/limitations.PS ]
  1842.  
  1843.   [27] Jennifer G. Steiner, Clifford Neuman, Jeffrey I. Schiller
  1844.        "Kerberos: An Authentication Service for Open Network Systems"
  1845.        [ athena-dist.mit.edu:/pub/kerberos/doc/usenix.PS ]
  1846.        [ athena-dist.mit.edu:/pub/kerberos/doc/usenix.txt ]
  1847.  
  1848.   [28] Barry Jaspan
  1849.        "Kerberos Users' Frequently Asked Questions"
  1850.        [ rtfm.mit.edu:/pub/usenet/news.answers/kerberos-faq/user ]
  1851.  
  1852.   [29] P. Honeyman, L.B. Huston, M.T. Stolarchuk
  1853.        "Hijacking AFS"
  1854.        [ ftp.sage.usenix.org:/pub/usenix/winter92/hijacking-afs.ps.Z ]
  1855.  
  1856.   [30] R.N. Sidebotham
  1857.        "Rx: Extended Remote Procedure Call"
  1858.        Proceedings of the Nationwide File System Workshop
  1859.        Information Technology Center, Carnegie Mellon University,
  1860.        (August 1988)
  1861.  
  1862.   [31] R.N. Sidebotham
  1863.        "Volumes: The Andrew File System Data Structuring Primitive"
  1864.        Technical Report CMU-ITC-053, Information Technology Center,
  1865.        Carnegie Mellon University, (August 1986)
  1866.  
  1867.